DL之BN-Inception:BN-Inception算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

DL之BN-Inception:BN-Inception算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

 

 

 

目录

BN-Inception算法的简介(论文介绍)

BN-Inception算法的架构详解

1、BN-Inception网络—核心组件

5、实验结果比对

BN-Inception算法的案例应用


 

 

 

 

 

相关文章
DL之InceptionV2/V3:InceptionV2 & InceptionV3算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之BN-Inception:BN-Inception算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之BN-Inception:BN-Inception算法的架构详解
DL之InceptionV4/ResNet:InceptionV4/Inception-ResNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

BN-Inception算法的简介(论文介绍)

                   BN-Inception是Google研究人员在Inception的基础上,所作出的改进版本。

Abstract
       Training Deep Neural Networks is complicated by the fact  that the distribution of each layer’s inputs changes during  training, as the parameters of the previous layers change.  This slows down the training by requiring lower learning  rates and careful parameter initialization, and makes it no  -  toriously hard to train models with saturating nonlinearities.  We refer to this phenomenon as internal covariate  shift, and address the problem by normalizing layer inputs.  Our method draws its strength from making normalization  a part of the model architecture and performing the  normalization for each training mini-batch. Batch Normalization  allows us to use much higher learning rates and  be less careful about initialization. It also acts as a regularizer,  in some cases eliminating the need for Dropout.  Applied to a state-of-the-art image classification model,  Batch Normalization achieves the same accuracy with 14  times fewer training steps, and beats the original model  by a significant margin. Using an ensemble of batchnormalized  networks, we improve upon the best published  result on ImageNet classification: reaching 4.9% top-5  validation error (and 4.8% test error), exceeding the accuracy  of human raters.
摘要
       由于训练过程中各层输入的分布随前一层参数的变化而变化,使得训练深度神经网络变得复杂。这通过要求较低的学习率和谨慎的参数初始化来降低训练速度,并使用饱和非线性训练模型变得不那么困难。我们将这种现象称为内部协变量移位,并通过规范化层输入来解决这个问题。我们的方法将规范化作为模型体系结构的一部分,并对每个训练小批执行规范化,从而获得了它的优势。批处理规范化允许我们使用更高的学习率,并且在初始化方面不那么小心。它还作为一个正则化器,在某些情况下消除了Dropout的需要。应用于最先进的图像分类模型,批处理归一化以14倍的训练步骤达到了同样的精度,并大大超过了原始模型。利用批量归一化网络的集合,我们改进了在ImageNet分类上发布的最佳结果:达到4.9%的前5个验证错误(和4.8%的测试错误),超过了人类评分器的精度
Conclusion
       We have presented a novel mechanism for dramatically  accelerating the training of deep networks. It is based on  the premise that covariate shift, which is known to complicate  the training of machine learning systems, also applies to sub-networks and layers, and removing it from internal activations of the network may aid in training. Our proposed method draws its power from normalizing activations, and from incorporating this normalization in the network architecture itself. This ensures that the normalization is appropriately handled by any optimization method that is being used to train the network. To enable stochastic optimization methods commonly used in deep network training, we perform the normalization for each mini-batch, and backpropagate the gradients through the normalization parameters. Batch Normalization adds only two extra parameters per activation, and in doing so preserves the representation ability of the network. We presented an algorithm for constructing, training, and performing inference with batch-normalized networks. The resulting networks can be trained with saturating nonlinearities, are more tolerant to increased training rates, and often do not require Dropout for regularization.
       我们提出了一种新的机制,可以显著加快深度网络的训练。它的前提是协变量移位(covariate shift)也适用于子网络和层,从网络的内部激活中去除协变量移位可能有助于训练。协变量移位已知会使机器学习系统的训练复杂化。我们提出的方法从规范化激活和将这种规范化合并到网络体系结构本身中获得强大的功能。这可以确保任何用于训练网络的优化方法都能恰当地处理规范化。为了实现深度网络训练中常用的随机优化方法,我们对每个小批进行归一化,并通过归一化参数对梯度进行反向传播。批处理规范化在每次激活时只添加两个额外的参数,这样做保留了网络的表示能力。提出了一种利用批处理规范化网络构造、训练和执行推理的算法。得到的网络可以用饱和非线性进行训练,对增加的训练率更有容忍度,而且通常不需要退出正则化。
       Merely adding Batch Normalization to a state-of-theart  image classification model yields a substantial speedup  in training. By further increasing the learning rates, removing  Dropout, and applying other modifications afforded  by Batch Normalization, we reach the previous  state of the art with only a small fraction of training steps  – and then beat the state of the art in single-network image  classification. Furthermore, by combining multiple models  trained with Batch Normalization, we perform better  than the best known system on ImageNet, by a significant  margin.
       仅仅在一个最先进的图像分类模型中添加批处理归一化,就可以大大加快训练速度。通过进一步提高学习速度,移除Dropout,并应用批处理归一化提供的其他修改,我们只需要一小部分训练步骤就可以达到以前的水平——然后在单网络图像分类中击败目前的水平。此外,通过将多个经过训练的模型与批处理规范化相结合,我们在ImageNet上的性能比最著名的系统要好得多。
       Interestingly, our method bears similarity to the standardization  layer of (G¨ulc¸ehre & Bengio, 2013), though  the two methods stem from very different goals, and perform  different tasks. The goal of Batch Normalization  is to achieve a stable distribution of activation values  throughout training, and in our experiments we apply it  before the nonlinearity since that is where matching the  first and second moments is more likely to result in a  stable distribution. On the contrary, (G¨ulc¸ehre & Bengio,  2013) apply the standardization layer to the output of the  nonlinearity, which results in sparser activations. In our  large-scale image classification experiments, we have not  observed the nonlinearity inputs to be sparse, neither with  nor without Batch Normalization. Other notable differentiating characteristics of Batch Normalization include  the learned scale and shift that allow the BN transform  to represent identity (the standardization layer did not require  this since it was followed by the learned linear transform  that, conceptually, absorbs the necessary scale and  shift), handling of convolutional layers, deterministic inference  that does not depend on the mini-batch, and batchnormalizing  each convolutional layer in the network.
       有趣的是,我们的方法与(G¨ulc ehre & Bengio, 2013)的标准化层有相似之处,尽管这两种方法的目标非常不同,执行的任务也不同。批量归一化的目标是在整个训练过程中实现激活值的稳定分布,在我们的实验中,我们将其应用于非线性之前,因为在非线性之前,匹配第一和第二矩更有可能得到稳定的分布。相反,(G¨ulc ehre & Bengio, 2013)将标准化层应用于非线性的输出,导致更稀疏的激活。在我们的大规模图像分类实验中,我们没有观察到非线性输入是稀疏的,既没有批次归一化也没有没有。批正常化的其他显著的差异化特征包括规模和学习转变,使BN变换代表身份(标准化层不需要这个,因为随之而来的线性变换,从概念上讲,吸收必要的规模和转移),卷积处理层,确定性推理,并不取决于mini-batch,和每个卷积batchnormalizing层网络中。
       In this work, we have not explored the full range of  possibilities that Batch Normalization potentially enables.  Our future work includes applications of our method to  Recurrent Neural Networks (Pascanu et al., 2013), where  the internal covariate shift and the vanishing or exploding  gradients may be especially severe, and which would allow  us to more thoroughly test the hypothesis that normalization  improves gradient propagation (Sec. 3.3). We plan  to investigate whether Batch Normalization can help with  domain adaptation, in its traditional sense – i.e. whether  the normalization performed by the network would allow  it to more easily generalize to new data distributions,  perhaps with just a recomputation of the population  means and variances (Alg. 2). Finally, we believe that further  theoretical analysis of the algorithm would allow still  more improvements and applications.
       在这项工作中,我们还没有探索批处理规范化可能实现的所有可能性。我们未来的工作包括将我们的方法应用于递归神经网络(Pascanu et al., 2013),其中内部协变量移位和消失或爆炸梯度可能特别严重,这将使我们能够更彻底地检验正常化改善梯度传播的假设(第3.3节)。我们计划调查是否批标准化有助于域适应,在传统意义上,即标准化执行的网络是否会使它更容易推广到新的数据分布,也许只需重新计算总体均值和方差(alg.2)。最后,我们相信的进一步理论分析算法将允许更多的改进和应用。

 

论文
Sergey Ioffe, Christian Szegedy.
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,
https://arxiv.org/abs/1502.03167

 

 

BN-Inception算法的架构详解

DL之BN-Inception:BN-Inception算法的架构详解

 

0、BN算法是如何加快训练和收敛速度的呢?

Batch Normalization有两个功能,一个是可以加快训练和收敛速度,另外一个是可以防止过拟合。

         BN算法在实际使用的时候,会把特征给强制性的归到均值为0,方差为1的数学模型下。深度网络在训练的过程中,如果每层的数据分布都不一样的话,将会导致网络非常难收敛和训练,而如果能把每层的数据转换到均值为0,方差为1的状态下,一方面,数据的分布是相同的,训练会比较容易收敛;另一方面,均值为0,方差为1的状态下,在梯度计算时会产生比较大的梯度值,可以加快参数的训练,更直观的来说,是把数据从饱和区直接拉到非饱和区。更进一步,这也可以很好的控制梯度爆炸和梯度消失现象,因为这两种现象都和梯度有关。

 

1、BN-Inception网络—核心组件

  • Batch Normalization(批归一化)。意义,目前BN已经成为几乎所有卷积神经网络的标配技巧。
  • 5x5卷积核→2个3x3卷积核。相同的感受野

 

5、实验结果比对

         在提供的包含50000个图像的验证集上,与以前的最新技术进行批量标准化初始比较。*根据测试服务器的报告,在ImageNet测试集的100000张图像上,BN初始集成已达到4.82% top-5。
         其中BN-Inception Ensemble,则采用多个网络模型集成学习后得到的结果。

 

BN-Inception算法的案例应用

 

TF之DD:实现输出Inception模型内的某个卷积层或者所有卷积层的形状
TF之DD:利用Inception模型+GD算法生成原始的Deep Dream图片
TF之DD:利用Inception模型+GD算法生成更大尺寸的Deep Dream精美图片
TF之DD:利用Inception模型+GD算法生成更高质量的Deep Dream高质量图片
TF之DD:利用Inception模型+GD算法——五个架构设计思路
TF之DD:利用Inception模型+GD算法生成带背景的大尺寸、高质量的Deep Dream图片

 

 

 

 

 

  • 5
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
本课程适合具有一定深度学习基础,希望发展为深度学习之计算机视觉方向的算法工程师和研发人员的同学们。基于深度学习的计算机视觉是目前人工智能最活跃的领域,应用非常广泛,如人脸识别和无人驾驶中的机器视觉等。该领域的发展日新月异,网络模型和算法层出不穷。如何快速入门并达到可以从事研发的高度对新手和中级水平的学生而言面临不少的挑战。精心准备的本课程希望帮助大家尽快掌握基于深度学习的计算机视觉的基本原理、核心算法和当前的领先技术,从而有望成为深度学习之计算机视觉方向的算法工程师和研发人员。本课程系统全面地讲述基于深度学习的计算机视觉技术的原理并进行项目实践。课程涵盖计算机视觉的七大任务,包括像分类、目标检测、像分割(语义分割、实例分割、全景分割)、人脸识别、像描述、像检索、像生成(利用生成对抗网络)。本课程注重原理和实践相结合,逐篇深入解读经典和前沿论文70余篇,文并茂破译算法难点, 使用思维导梳理技术要点。项目实践使用Keras框架(后端为Tensorflow),学员可快速上手。通过本课程的学习,学员可把握基于深度学习的计算机视觉的技术发展脉络,掌握相关技术原理和算法,有助于开展该领域的研究与开发实战工作。另外,深度学习之计算机视觉方向的知识结构及学习建议请参见本人CSDN博客。本课程提供课程资料的课件PPT(pdf格式)和项目实践代码,方便学员学习和复习。本课程分为上下两部分,其中上部包含课程的前五章(课程介绍、深度学习基础、像分类、目标检测、像分割),下部包含课程的后四章(人脸识别、像描述、像检索、像生成)。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一个处女座的程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值